Loading...
机构名称:
¥ 1.0

当人类受到算法决策系统的约束时,他们可以在战略上相应地调整其行为(“游戏”系统)。虽然越来越多的关于战略分类的文献使用了游戏理论建模来理解和减轻这种游戏,但这些现有作品考虑了完全理性代理的标准模型。在本文中,我们提出了一个战略分类模型,该模型考虑了人类对算法的反应中的行为偏见。我们展示了分类器的误解(特别是其特征权重)如何导致偏见和理性代理的响应之间的不同类型的差异,并确定何时在不同特征中过度投资或不投资的行为剂。我们还表明,与完全理性的战略代理人相比,具有行为偏见的战略代理人可能受益或(也许是出乎意料的)损害公司。我们通过用户研究补充了我们的分析结果,这些结果支持我们在人类对算法反应中行为偏见的假设。一起,我们的发现强调了在设计AI系统时需要解决人类(认知)偏见的必要性,并提供了对循环中战略性人类的解释。

arxiv:2410.18066v2 [cs.lg] 2024年10月25日

arxiv:2410.18066v2 [cs.lg] 2024年10月25日PDF文件第1页

arxiv:2410.18066v2 [cs.lg] 2024年10月25日PDF文件第2页

arxiv:2410.18066v2 [cs.lg] 2024年10月25日PDF文件第3页

arxiv:2410.18066v2 [cs.lg] 2024年10月25日PDF文件第4页

arxiv:2410.18066v2 [cs.lg] 2024年10月25日PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥19.0